به گزارش مجله خبری نگار،هوش مصنوعی Phi-۳ Mini تا ۳٫۸ میلیارد پارامتر دارد و با استفاده از مجموعهدادههای آموزشی مدلهای زبانی بزرگ مانند GPT-۴ آموزش داده شده است.
مایکروسافت قصد دارد بهزودی Phi-۳ Small (۷ میلیارد پارامتر) و Phi-۳ Medium (۱۴ میلیارد پارامتر) را نیز منتشر کند. پارامتر به تعداد دستورالعملهای پیچیدهای اشاره میکند که یک مدل میتواند بفهمد.
مایکروسافت مدل Phi-۲ را در ماه دسامبر ۲۰۲۳ (آذر و دی ۱۴۰۲) منتشر کرد که به خوبیِ مدلهای بزرگتری مانند Llama ۲ بود. مایکروسافت میگوید که Phi-۳ بهتر از نسخهی قبلی عمل میکند و میتواند پاسخهایی نزدیک به مدلی ۱۰ برابر بزرگتر را ارائه دهد.
مدلهای هوش مصنوعی کوچک درمقایسهبا همتایان بزرگتر خود، اغلب ارزانتر هستند و در دستگاههای شخصی مانند گوشی و لپتاپ عملکرد بهتری دارند.
اوایل سال ۲۰۲۴، مایکروسافت در حال ساخت تیمی بود که بهطورخاص روی مدلهای سبکتر هوش مصنوعی متمرکز است. درکنار Phi، این شرکت Orca-Math را نیز ساخته است؛ مدلی که مسائل ریاضی را حل میکند.
مدل زبان جدید و کوچک مایکروسافت با تعداد پارامتر بسیار کمتر، عملکرد بهتری از ChatGPT دارد.
اریک بوید، معاون شرکت Microsoft Azure AI Platform، میگوید که توسعهدهندگان Phi-۳ را با «برنامهای آموزشی» آموزش دادهاند. آنها از نحوهی یادگیری کودکان از داستانهای قبل از خواب و کتابهایی با کلمات سادهتر الهام گرفتهاند.
بوید میگوید: «کتابهای کودکان زیادی وجود ندارد؛ بنابراین، فهرستی از بیش از ۳ هزار کلمه برداشتیم و از LLM خواستیم تا «کتابهای کودکان» را برای آموزش Phi-۳ بسازد.»
خانوادهی مدلهای Phi-۳ برخی از دانشهای عمومی را میدانند؛ اما نمیتوانند GPT-۴ یا LLM دیگری را شکست دهند.